Sur TikTok, l’effet « terrier de lapin » inquiète la Commission européenne et les ONG


L’algorithme de recommandation de TikTok fonctionne grâce à une analyse précise des centres d’intérêt de ses utilisateurs, l’objectif étant d’augmenter le temps passé sur l’application.

Pour Selma, tout commence en 2021, lorsqu’elle tombe sur une vidéo TikTok intitulée « Cinq signes montrant que vous êtes autiste », proposée sur sa page Pour toi. L’étudiante en droit, qui a alors 17 ans, (les témoins n’ont pas souhaité donner leur nom de famille) la regarde par curiosité, puis fait défiler un contenu sur le même thème qui lui est aussitôt proposé, et ainsi de suite. « J’ai commencé à m’inquiéter, j’ai visionné une centaine de vidéos pour savoir si je l’étais vraiment. C’était devenu irrationnel. » Elle voit dès lors des signes d’autisme dans chacun de ses gestes, mais n’en parle pas à ses parents, qui s’inquiètent face à son isolement croissant. « Toute la journée, j’attendais le moment où j’aurai quelques minutes pour ouvrir TikTok et regarder si d’autres vidéos allaient m’indiquer d’autres signes, je devenais folle », se rappelle-t-elle.

Depuis, Selma a désinstallé l’application, « pour le bien de [sa] santé mentale », explique-t-elle. Elle a été victime de l’effet « rabbit hole » (« terrier de lapin ») qui vaut à TikTok de vives critiques. Tant qu’il s’agit de vidéos inoffensives, tout va bien. Mais ses détracteurs dénoncent un encouragement à regarder de plus en plus de vidéos dangereuses pour la santé mentale.

Face à ces inquiétudes, la Commission européenne a annoncé, le 19 février, l’ouverture d’une enquête visant le réseau social pour des manquements présumés en matière de protection des mineurs. L’institution a ouvert « une procédure formelle » afin de déterminer si TikTok a enfreint le règlement sur les services numériques (le Digital Services Act, ou DSA). Les inquiétudes du gendarme européen du numérique portent en particulier sur la protection des mineurs, la transparence de la publicité, l’accès aux données pour les chercheurs, ainsi que les risques liés à la conception addictive de la plate-forme et aux contenus préjudiciables.

De son côté, TikTok France affirme au Monde que cette enquête est une « simple vérification de la mise en place du règlement européen sur les services numériques (DSA). Comme indiqué dans le communiqué, cela ne présage pas de conclusions ». Le réseau social se targue d’être « un précurseur qui a développé des fonctionnalités et des paramètres visant à protéger les adolescents et à restreindre l’accès à la plate-forme aux moins de 13 ans ».

« De graves risques » pour la santé mentale

L’alerte avait déjà été donnée au niveau européen en novembre 2023, lorsque l’ONG AI Forensics a réalisé une enquête, en collaboration avec Amnesty International et l’Algorithmic Transparency Institute, sur le phénomène. Cette dernière a montré comment les enfants et les jeunes adultes qui regardent des contenus relatifs à la santé mentale sur la page Pour vous de la plate-forme sont rapidement entraînés dans des « spirales » de contenus potentiellement dangereux, notamment des vidéos qui romantisent et encouragent les pensées dépressives, l’automutilation et le suicide.

Il vous reste 52.28% de cet article à lire. La suite est réservée aux abonnés.



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.